美國時(shí)間5月10日,北京時(shí)間5月11日凌晨,NVIDIA GPU Techonology Conference在美國硅谷拉開帷幕,英偉達(dá)董事長黃仁勛當(dāng)仁不讓的成為了大會的主角,他發(fā)表的主題演講對人工智能方面有了更深度的闡述,同時(shí)還發(fā)布了英偉達(dá)第七代GPU架構(gòu)——Volta,這也是本次大會的核心。
英偉達(dá)在Volta的研發(fā)投入超過30億美金,當(dāng)然回報(bào)也是相當(dāng)豐厚的,從近幾日的股價(jià)上也能看出這一點(diǎn)。Volta架構(gòu)GV100 GPU采用了臺積電12納米FinFET(鰭式場效應(yīng)晶體管),擁有5120個(gè)CUDA核心,比起16nm制程的Pascal架構(gòu)GPU GP100,晶體管數(shù)目增加了38%,達(dá)到了驚人的211億個(gè),單、雙精度浮點(diǎn)性能也大幅提升了41%,可以進(jìn)行120兆兆次浮點(diǎn)計(jì)算(TeraFlops)。
GV100搭載在TESLA V100開發(fā)板上亮相,擁有超過640個(gè)Tensor單元,新的GPU架構(gòu)融合了Tensor單元和CUDA在統(tǒng)一的架構(gòu)里面,新的NVLink提速了2倍,可以更好的將CPU和GPU連接起來。
它還使用了16GB的HBM2顯存,帶寬高達(dá)900GB/s;同時(shí)支持NVLink,帶寬達(dá)300GB/s。
每次都是達(dá)到了驚人的xx億個(gè),真的有那么厲害?對于新GPU,淘友們怎么看呢?



